首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏运维小路

    DeepSeek-Open WebUI部署

    前面部署了vLLM版本以后,访问它比较麻烦。如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。 Pipelines 插件支持:使用 Pipelines 插件框架将自定义逻辑和 Python 库无缝集成到 Open WebUI 中 1.创建conda 虚拟环境 conda create --name openwebui python=3.12.9 2.安装Open WebUI pip install open-webui -i https://mirrors.aliyun.com/pypi/simple / 3.启动Open WebUI # 禁用OLLAMA API export ENABLE_OLLAMA_API=False # 设置OpenAI API的基础URL为本地服务器 export OPENAI_API_BASE_URL WebUI open-webui serve 4.配置Open WebUI 5.开始提问

    1.6K00编辑于 2025-03-04
  • 来自专栏运维小路

    DeepSeek-容器化(Docker)部署vLLM和Open WebUI

    前面小节我们通过conda创建虚拟Python环境,实现vLLM和OpenWebUI的配置,但是这个安装部署会非常繁琐非费时间。我们今天将使用容器来部署。 apt-get update apt-get install -y nvidia-docker2 systemctl restart docker 3.下载镜像 docker pull ghcr.io/open-webui 5.运行Open WebUI容器 docker run -d \ --name openwebui-container \ --network host \ --gpus all \ - http://localhost:8000/v1 \ -e OPENAI_API_KEYS=OPENWEBUI123 \ -e USE_CUDA_DOCKER=true \ ghcr.io/open-webui /open-webui:cuda 6.验证DeepSeek #Open WebU访问地址,先创建管理员,然后进入对话界面, http://x.x.x.x:8080

    8.3K10编辑于 2025-03-06
  • 来自专栏leehao

    Ollama整合open-webui

    open-webui open-webui Open WebUI is an extensible, feature-rich, and user-friendly self-hosted WebUI For more information, be sure to check out our Open WebUI Documentation. 环境要求 熟练使用python Node.js >= 20.10 Python >= 3.11 步骤 克隆代码 git clone https://github.com/open-webui/open-webui.git cd open-webui/ 拷贝.env文件,可鼠标右键复制粘贴 # Copying required .env file cp -RPp .env.example .env 构建前端页面 #

    54510编辑于 2025-02-11
  • 来自专栏Java Tale

    open-webui镜像启动失败

    COMMAND CREATED STATUS PORTS NAMES 948e39d916a7 ghcr.io/open-webui /open-webui:main "bash start.sh" 7 seconds ago Up 7 seconds 0.0.0.0:11433->8080/tcp ollama-webui 看了日志才知道,原来是open-webui启动时期需要首先在线安装transformers库,但是huggingface.co对于国内来说是经常不可访问):   于是赶紧求助bing,找到一个镜像网站, 完整的命令行如下: docker run -d \ --restart unless-stopped \ --name ollama-webui \ -p 11433:8080 \ =12345678 \ ghcr.io/open-webui/open-webui:main 本文由 小马哥 创作,采用 知识共享署名4.0 国际许可协议进行许可 本站文章除注明转载

    1.6K10编辑于 2024-08-15
  • 来自专栏前端必修课

    Open WebUI 文本效率分析工具

    今天,我要分享一个我为 Open WebUI 开发的实用小工具 —— 一个能够实时统计文本生成效率的 Python 函数。 import BaseModel, Field from typing import Optional, Callable, Any, Awaitable import re import time from open_webui.utils.misc

    40310编辑于 2025-03-07
  • 来自专栏用户2141488的专栏

    容器环境下部署Open-webui、One-api、Ollama、Deepseek

    Open-webui 是一种友好的 Web 用户界面,专为大语言模型(LLM)设计,支持包括 Ollama 和 OpenAI 兼容的 API。 (官网,github) 部署环境 系统:Ubuntu 22,8C16G,50G存储硬盘,香港地域云主机 选择香港地域的机器主要是为了pull镜像方便,此次部署只是对流程做介绍,不考虑性能,要好的性能选gpu /ubuntu/data/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui 端口,加上外部链接后webUI就能识别到这个模型(为了测试效果,11435端口对应的模型是deepseek-r1:7b) #### 同理,加上配置了One-api 鉴权的模型再来看看效果 总结 通过上面的部署我们可以看到 ,Open-webui 提供了一个非常友好的web交互界面,让用户可以不用懂代码、不用懂开发就能体验私有化大模型,One-api 提供了一个非常优秀的安全鉴权措施,2个工具都是拿来开箱即用,非常方便;

    2.6K11编辑于 2025-03-20
  • 今日高质量开源项目:Open WebUI (原 Ollama WebUI)

    项目简介OpenWebUI是一个功能丰富、可自托管的ChatGPT式Web界面,专门为本地或私有化部署的大语言模型(如通过Ollama运行的Llama3、Qwen等)提供现代化交互体验。 部署极其简单:一条Docker命令即可运行,几乎无门槛。 一分钟极速部署#使用Docker一键启动(假设已安装Ollama并拉取模型)dockerrun-d-p3000:8080\-vopen-webui:/app/backend/data\--nameopen-webui \--restartalways\ghcr.io/open-webui/open-webui:main#访问http://localhost:3000#首次登录创建账户,然后在设置中连接本地Ollama 项目地址GitHub:https://github.com/open-webui/open-webui官网:https://openwebui.com/总结:个人AI基础设施的成熟标志OpenWebUI

    4.5K31编辑于 2026-01-27
  • 来自专栏轩辕镜像

    Docker 部署 Open WebUI + Ollama 完整教程(Windows Linux 通用)—— 打造自己的本地OpenAI

    正式部署:OpenWebUI+Ollama步骤拆解部署全程用Docker命令操作,步骤清晰,Windows和Linux仅命令格式有细微差异(已单独标注),跟着做就能成功。 拉取OpenWebUI镜像:展开代码语言:BashAI代码解释dockerpulldocker.xuanyuan.run/openwebui/open-webui:latest拉取Ollama镜像:展开代码语言 /open-webui:latestWindows系统(PowerShell执行)展开代码语言:PowerShellAI代码解释dockerrun-d--nameopen-webui--networkai-network-p3002 /openwebui/open-webui:latest关键命令说明:\-p3002:8080:将OpenWebUI的8080端口映射到本地3002端口,后续通过localhost:3002访问;\-eOLLAMA 正常情况下,会显示两个容器的运行状态,如下所示(简化版):展开代码语言:TXTAI代码解释CONTAINERIDIMAGEPORTSxxxxxxxdocker.xuanyuan.run/openwebui/open-webui0.0.0.0

    24620编辑于 2026-04-25
  • 来自专栏LLM

    Open-WebUI 接入腾讯混元大模型

    25.1.10记:Open WebUI docker容器更新可能会导致腾讯云官方提供的Python SDK 丢失,需要重新安装环境(参照步骤1.b)。 1. 前置要求         a. 打开Open WebUI的控制台,安装腾讯云官方提供的Python SDK                i. 我部署的设备是unraid,点击图标,然后点击WebUi下的Console,进入控制台(里面是Linux的terminal),复制并执行下面的命令。           前往Open WebUI社区,选择function然后搜索Tencent HunyuanAI,或者直接点击这里                 ii. 点击get,输入自己Open Webui的地址就直接跳往安装。         b. 填写密钥                 i. 点击齿轮按钮依次输入刚刚获取的密钥就行         c.

    1.1K11编辑于 2025-01-10
  • 来自专栏开发三两事

    llama3&open-webui快速实现本地模型搭建

    running就表示运行成功了 docker桌面下载 下载地址:https://www.docker.com/products/docker-desktop/ 下载完成后启动运行,可以看到如下界面 搜索框搜open-webui 大家可以直接搜索 llama3-8b-chinese-chat-ollama-q8 这个模型是对llama3进行了中文微调后的模型,相对对中文比较友好 一般小型模型也得几个G,下载需要一会时间等待,下载完成在webui ,不过一般个人电脑也仅仅是运行起来,速度比较慢,只能满足下自己日常的好奇心,真正要投入生产还是需要一个不错的机器才行,自己也可以下一些响应速度更快的mini模型测试 接口调用的使用方式 以上展示了使用open-webui

    2.4K50编辑于 2024-04-29
  • 来自专栏数据仓库技术

    通过ollama+open webui可视化运行gemma

    今天给大家介绍一个本地运行大模型的工具ollama,能够让我们方便地运行各种大模型,Open Webui 界面化的管理使用各种大模型。 1.安装ollama 1.1 什么是ollama ollama是专为在Docker容器中部署LLM而设计的,简化了部署和管理流程,目前它支持的模型如下: Model Parameters Size Download 2.3 安装Open Webui 执行docker命令安装 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 安装完成后,您可以通过http://localhost:3000访问 Open WebUI 至此安装完成 3.Open Webui 运行模型 界面如下 依次选择模型,选择对应的模型后,在3处输入内容即可

    9.8K31编辑于 2024-03-06
  • 从零开始构建强大 AI 对话系统:ollama + deepseek + open-webui 部署教程(Docker 版)!

    手把手教你从零开始构建强大 AI 对话系统:ollama + deepseek + open-webui 完整部署教程(Docker 版)。 open-webui open-webui 是一个开源的 Web 界面,用于与 AI 模型进行交互。通过它,用户可以通过浏览器与部署的 AI 模型进行实时对话,查看模型的输出结果。 open-webui 接下来,我们将部署 open-webui,它是一个用于与 AI 模型交互的 Web 界面。 ollama + deepseek + open-webui 这里聊聊部署过程中遇到的一些问题和解决方案。 总结 通过以上步骤,我们已经成功地在 Docker 中部署了 ollama、deepseek 和 open-webui,并通过 Docker Compose 优化了整个部署过程。

    65010编辑于 2026-03-24
  • 来自专栏码匠的流水账

    使用open-webui+deepseek构建本地AI知识库

    序本文主要研究一下如何使用OpenWebUI+deepseek构建本地AI知识库步骤拉取open-webui镜像docker pull ghcr.io/open-webui/open-webui:maindocker /open-webui:main执行完之后等一会(大概要三四分钟)启动起来了访问http://localhost:3000/,注册管理员账号,注册完要等一会(估计要七八分钟)页面才出来可以-v . /open-webui-data:/app/backend/data来挂载数据看日志是有报错ERROR [open_webui.routers.openai] Connection error: Cannot ] get_all_models()INFO [open_webui.routers.ollama] get_all_models()INFO [open_webui.routers.ollama] latest工作空间 --> 知识库,点击+号上传文档使用时需要在聊天框通过#来指定知识库设置 --> 管理员设置 --> 数据库 --> 下载数据库,可以导出sqlite数据小结整体体验是docker部署起来

    4.9K10编辑于 2025-02-18
  • 来自专栏轩辕镜像

    玩转本地大模型:Ollama + Open WebUI简明使用指南

    就 Ollama GUI 而言,根据不同偏好,有许多选择: Web 版:Ollama WebUI 具有最接近 ChatGPT 的界面和最丰富的功能特性,需要以 Docker 部署; Ollama WebUI

    16.6K12编辑于 2024-09-29
  • 来自专栏Mintimate's Blog

    看看 Ollama 和 Open WebUI如何配合

    本文将介绍如何在 macOS 上部署 Ollama 和 Open WebUI,实现本地运行 DeepSeek 大模型。 最后的效果:部署思路目前本地部署 DeepSeek-R1 的途径很多,主流的方法是使用 Ollama + Open WebUI 或者 Ollama + ChatbotUI;我个人是觉得 Ollama + Open WebUI 更加实用,所以我们就部署这两个“小家伙”吧:Ollama: 一个轻量级、可扩展的框架,用于在本地计算机上构建和运行语言模型。 Open WebUI 部署同样,有两种方法可以部署 Open WebUI,分别是 Docker 安装和 Python pip 安装。既没有 Docker,也不想使用 Python? open-webui# 启动 Open WebUIopen-webui serve如果你想使用 Docker 部署 Open WebUI,那么可以参考 Open WebUI 官方文档。

    2.8K01编辑于 2025-02-18
  • 来自专栏轩辕镜像

    NGINX WEBUI Docker 容器化部署指南

    本文将详细介绍NGINXWEBUI的Docker容器化部署方案,包括环境准备、镜像管理、容器部署、功能测试及生产环境优化建议,帮助用户快速实现NGINXWEBUI的标准化部署。 环境准备Docker环境安装部署NGINXWEBUI前需确保服务器已安装Docker环境。 dockerimages|grepnginxwebui#预期输出示例:#docker.xuanyuan.me/cym1102/nginxwebuilatestxxxxxxxx2weeksago500MB容器部署基础部署命令使用 ,包括环境准备、镜像拉取、容器部署、功能测试、生产环境优化及故障排查等关键环节。 通过容器化部署,可快速搭建图形化Nginx管理平台,简化配置流程,提升运维效率。

    60711编辑于 2025-11-11
  • 来自专栏运维知识

    使用Ollama和Open WebUI管理本地开源大模型的完整指南

    目录 ✨️Open-WebUI介绍 优点 部署教程 1.打开官网地址 2.安装Docker 3.Open WebUI下载 ️‍️功能介绍 1.AI编程 2.聊天历史 3.自定义Web的界面 ✨️Open-WebUI 部署教程 1.打开官网地址 打开,开源项目Open-WebUI地址放在下方 点击! -v open-webui:/app/backend/data: 将本地的 open-webui 卷映射到容器内的 /app/backend/data 目录。 --name open-webui: 为容器指定一个名称 open-webui,以便于管理和识别。 ghcr.io/open-webui/open-webui:main: 使用来自 GitHub 容器注册表(GitHub Container Registry)的 open-webui 镜像,并指定使用

    35.9K32编辑于 2024-06-03
  • 来自专栏ai

    【腾讯云 HAI】Stable Diffusion WebUI 绘画部署实战

    接下来我们使用 Stable Diffusion WebUI 生成一张猫咪图片,配置以下参数后,单击 Generate 即可。 值 Prompt 主要描述图像,包括内容风格等信息,原始的 WebUI 再搭配腾讯云 HAI,可方便帮助用户快速上手但不限于 Stable Diffusion WebUI 服务。 就目前我会认为还有优化空间,需要反复调教参数,且多试几次才能找到满意的图片。

    51500编辑于 2024-04-07
  • 来自专栏Man_Docker

    open魏屁嗯-安装部署

    2、openVPN服务端安装部署 (1)、关闭 selinux sed -i '/^SELINUX/s/enforcing/disabled/g' /etc/selinux/config setenforce -r "${PASSFILE}" ]; then echo "${TIME_STAMP}: Could not open password file \"${PASSFILE}\" for reading

    1.9K20编辑于 2023-03-11
  • 来自专栏MoeLove

    Open-Falcon监控系统部署

    本文并不分析Open-Falcon的架构或者选用它的原因,官方的文档在这里,虽然还不够完善。不过这也是我写这篇的原因,官方文档并没能把整个部署过程连在一起,而且个别地方有点问题。 我在这篇文章中就不介绍各个组件的作用和功能了,只是单纯的介绍如何从零部署。 安装 下载 wget https://github.com/XiaoMi/open-falcon/releases/download/0.0.5/open-falcon-0.0.5.tar.gz -O open-falcon.tar.gz 解压 mkdir tmp tar -zxvf open-falcon.tar.gz -C . /control tail 注意配置项目中的数据库连接, 以及下面的shortcut 中需要配置外网可以访问的地址,如果不是在服务器部署的话,这里默认也没有关系.

    1.5K30发布于 2018-08-27
领券